SVG Image
< Terug naar nieuws

17 januari 2025

Potentieel grote rol voor taalmodellen in informatielandschap

Met de opkomst van generatieve AI worden taalmodellen steeds belangrijker in het bestrijden van onbetrouwbare informatie. Taalwetenschapper Chantal van Son van de Vrije Universiteit heeft onderzocht hoe hoogwaardige datasets en nieuwe technieken, zoals de PANLI-dataset, kunnen bijdragen aan betrouwbare toepassingen van taalmodellen.

De verspreiding van onbetrouwbare informatie via generatieve AI kan ernstige gevolgen hebben. Tegelijkertijd bieden taalmodellen, mits goed getraind en geëvalueerd, oplossingen voor complexe vragen, aldus onderzoek van taalwetenschapper Chantal van Son.

 

Van Son illustreert een mogelijke toepassing: “Stel, je wilt weten of je je kind moet laten vaccineren. Taalmodellen kunnen worden ingezet in applicaties die overzicht bieden van beweringen over de veiligheid en effectiviteit van vaccinaties. Ze kunnen inzicht geven in welke bronnen vóór of tegen vaccinaties pleiten, en wat de onderliggende argumenten zijn.”

 

Beperkingen van bestaande datasets
Uit analyse van bestaande datasets blijkt dat deze vaak tekortschieten. Veel datasets zijn gebaseerd op kunstmatige tekst en houden onvoldoende rekening met de verschillende perspectieven die in teksten worden uitgedrukt. Dit is volgens Van Son problematisch, omdat teksten, zoals nieuwsberichten en sociale media, vaak meerdere standpunten bevatten.

 

Nieuwe technieken: PANLI-dataset
Van Son ontwikkelde daarom de PANLI (Perspective-Aware Natural Language Inference) dataset. Deze is gebaseerd op teksten over vaccinaties en koppelt zinnen op basis van hun betekenis. Bijzonder aan de dataset is dat de relaties tussen zinnen worden beoordeeld vanuit zowel het standpunt van de auteur als van genoemde bronnen. Dit biedt nieuwe mogelijkheden voor het begrijpen en inzetten van subjectiviteit in taalmodellen.

 

Volgens Van Son kan de PANLI-dataset een grote vooruitgang betekenen voor toepassingen van taalmodellen in praktijksituaties, bijvoorbeeld in de medische besluitvorming of bij mediatoepassingen.

Lees het volledige artikel op de website van de Vrije Universiteit.

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
Waarom GPT Niet Zoals Mensen Kan Redeneren

23 Maart 2025

Waarom GPT Niet Zoals Mensen Kan Redeneren >

In een studie van AI- en taalexperts Martha Lewis van de Universiteit van Amsterdam en Melanie Mitchell van het Santa Fe Institute werd de capaciteit van GPT-4 om analogieën te begrijpen getest in vergelijking met menselijke prestaties. Analogisch redeneren – het vermogen om vergelijkingen te maken tussen verschillende dingen op basis van gedeelde overeenkomsten – is een cruciale manier waarop mensen de wereld begrijpen. Bijvoorbeeld: "Kop is voor koffie zoals soep is voor ???" 

Lees meer >

Oproep: Test een nieuw AI-aanbevelingssysteem voor NEMO Kennislink!

20 Maart 2025

Oproep: Test een nieuw AI-aanbevelingssysteem voor NEMO Kennislink! >

NEMO Kennislink test samen met onderzoekers van de UvA, HvA en CWI een nieuw AI-gestuurd aanbevelingssysteem in het AI Media & Democracy Lab. We zoeken enthousiaste deelnemers die twee maanden lang NEMO Kennislink willen lezen via een speciale test-app op hun smartphone.

Lees meer >

Lemni haalt €3,3 miljoen pre-seed investering op voor AI-gedreven klantinteractie

18 maart

Lemni haalt €3,3 miljoen pre-seed investering op voor AI-gedreven klantinteractie >

De Amsterdamse AI-startup Lemni is officieel gelanceerd en heeft €3,3 miljoen aan pre-seed financiering opgehaald in een ronde geleid door Sequoia Capital. De investering helpt Lemni bij het versnellen van productontwikkeling, het uitbreiden van het team en het wereldwijd opschalen van hun AI-gedreven klantinteractieplatform.

Lees meer >